هوش مصنوعی  Claude 2

هوش مصنوعی  Claude 2

توسط : تیم محتوا
1,566

nthropic، یک شرکت هوش مصنوعی، هفته گذشته جدیدترین چت ربات بزرگ مبتنی بر مدل زبانی خود را با نام Claude 2 منتشر کرد که آخرین پیشرفت در رقابت برای ساخت مدل های هوش مصنوعی بزرگتر و بهتر است. در اینجا به آنچه درباره هوش مصنوعی  Claude 2به عنوان رقیب آنتروپیک برای ChatGPT باید بدانید، می پردازیم.

Claude 2

Claude 2  نسخه بهبود نسبت به مدل قبلی هوش مصنوعی Anthropic،  Claude 1.3  است، به ویژه از نظر توانایی آن برای نوشتن کد بر اساس دستورالعمل های نوشته شده برتری هایی دارد. به این معنی که کاربران اکنون می توانند کل کتاب ها را وارد کنند و از Claude 2 سوالات بپرسند. 

بر اساس محتوای آنها این پیشرفت ‌ها نشان می‌دهد که Claude 2 اکنون در همان دسته GPT-3.5 و GPT-4  است، مدل ‌هایی که ChatGPT OpenAI را تقویت می‌کنند. با این حال، مانند مدل‌های OpenAI، Claude 2 همچنان تعصبات کلیشه‌ای را نشان می‌دهد. 

در هوش مصنوعی  Claude 2، سؤالات بزرگ تری در مورد رقابت بین شرکت های هوش مصنوعی برای ارائه مدل های هوش مصنوعی قدرتمندتر بدون پرداختن به خطرات آنها وجود دارد.

تاریخچه آنتروپیک

آنتروپیک توسط خواهر و برادران دانیلا و داریو آمودی که هر دو قبلا در OpenAI، یکی از رقبای اصلی آنتروپیک، کار می کردند، تاسیس شد. آنها OpenAI را که در ابتدا به عنوان یک غیرانتفاعی با هدف اطمینان از توسعه ایمن هوش مصنوعی تأسیس شده بود، به دلیل نگرانی از بیش از حد تجاری شدن آن را ترک کردند. 

آنتروپیک یک شرکت عام المنفعه است، به این معنی که می تواند مسئولیت اجتماعی و همچنین سود را دنبال کند و ترجیح می دهد خود را به عنوان یک شرکت تحقیقاتی و ایمنی هوش مصنوعی معرفی کند. با وجود این، Anthropic در سال های اخیر مسیر مشابهی را برای OpenAI دنبال کرده است.

 1.5 میلیارد دلار جمع آوری کرده و با گوگل برای دسترسی به محاسبات ابری گوگل همکاری کرده است. در ماه آوریل، یک سند مالی فاش شده، برنامه‌های آنتروپیک را برای جمع‌آوری 5 میلیارد دلار در دو سال آینده و ساخت «Claude-Next» نشان می‌دهد که انتظار می‌رود توسعه آن یک میلیارد دلار هزینه داشته باشد و 10 برابر بیشتر از سیستم ‌های هوش مصنوعی مانند هوش مصنوعی  Claude 2 باشد.

هوش مصنوعی  Claude 2

گام بعدی به سمت Claude-Next

رهبری آنتروپیک استدلال می کند که برای داشتن یک شانس واقع بینانه برای ایمن کردن هوش مصنوعی قدرتمند، آنها باید خودشان سیستم های هوش مصنوعی قدرتمندی را توسعه دهند تا قوی ترین سیستم ها را آزمایش کنند و به طور بالقوه از آنها برای قدرتمندتر کردن سیستم های آینده استفاده کنند. Claude 2 شاید گام بعدی به سمت Claude-Next باشد.

محققان نگران سرعت حرکت توسعه دهندگان هوش مصنوعی هستند. فشارهای تجاری یا الزامات امنیت ملی می‌تواند باعث پویایی رقابتی بین آزمایشگاه‌های هوش مصنوعی شود و به توسعه‌دهندگانی منجر شود که ایمنی را کاهش دهند. با انتشار هوش مصنوعی  Claude 2 مشخص نیست که آیا Anthropic به تلاش‌ها برای تولید سیستم‌های هوش مصنوعی ایمن‌تر کمک می‌کند یا آسیب می‌زند.

پیشنهاد مطالعه:ابزارهای توسعه دهنده هوشمند JetBrains

چگونه کلود 2 ساخته شد؟

برای آموزش کلود 2، آنتروپیک حجم عظیمی از متن و عمدتاً از اینترنت گرفت. برخی از مجموعه داده های مجوز یا ارائه شده توسط توسعه دهندگان و سیستم هوش مصنوعی کلمه بعدی هر جمله را پیش بینی کرد. سپس خود را بر اساس اینکه کلمه بعدی را به درستی پیش بینی کرده است یا خیر تنظیم کرد.

برای تنظیم دقیق این مدل، آنتروپیک از دو تکنیک استفاده کرده است. اولین مورد، یادگیری تقویتی با بازخورد انسانی، شامل آموزش مدل بر روی تعداد زیادی از نمونه های تولید شده توسط انسان است. به عبارت دیگر، مدل هوش مصنوعی  Claude 2سعی خواهد کرد به یک سوال پاسخ دهد و بازخوردی از یک انسان در مورد اینکه پاسخش چقدر خوب بوده است.

 هم از نظر اینکه چقدر مفید است و هم اینکه آیا پاسخ هایش به طور بالقوه مضر هستند، دریافت می کند. تکنیک دوم که توسط محققان Anthropic توسعه داده شد و Claude 2 را از GPT-4 و بسیاری از دیگر رقبای آن متمایز می کند، Constitutional AI نامیده می شود. 

این تکنیک باعث می‌شود که مدل به تعداد زیادی سؤال پاسخ دهد، سپس از آن می‌خواهد که آن پاسخ‌ها را بهبود بخشد. در نهایت، مدل به گونه‌ای تنظیم می‌شود که پاسخ‌هایی شبیه به پاسخ‌های مفید  در آینده را ایجاد کند. اساساً، به جای اینکه انسان ها مدل را با بازخورد تنظیم کنند، مدل خودش را به خوبی تنظیم می نماید.

هوش مصنوعی  Claude 2

هشدارهای مناسب هوش مصنوعی

برای مثال، اگر از مدل تصفیه نشده خواسته شود که به کاربر بگوید چگونه شبکه وای فای همسایه را هک کند، مطابقت خواهد داشت. اما هنگامی که از هوش مصنوعی  Claude 2خواسته شد تا پاسخ اصلی خود را نقد کند، یک هوش مصنوعی توسعه یافته با یک قانون اساسی به این نکته اشاره می کند که هک کردن شبکه وای فای همسایه کاربر غیرقانونی و غیراخلاقی است. 

سپس مدل پاسخ خود را با در نظر گرفتن این انتقاد بازنویسی می کند. در پاسخ جدید، مدل از کمک به هک کردن شبکه وای فای همسایه خودداری می کند. تعداد زیادی از این پاسخ های بهبود یافته برای اصلاح مدل استفاده می شود.

این تکنیک هوش مصنوعی قانونی نامیده می شود؛ زیرا توسعه دهندگان می توانند قانون اساسی بنویسند که مدل در هنگام بهبود پاسخ های آن به آن اشاره خواهد کرد.

پیشنهاد مطالعه:خرید بهترین سهام هوش مصنوعی 2023

قوانین کلود 2

قانون اساسی هوش مصنوعی  Claude 2شامل ایده هایی از اعلامیه حقوق بشر سازمان ملل و همچنین اصول دیگری است که برای جلب دیدگاه های غیر غربی گنجانده شده است. 

قانون اساسی شامل دستورالعمل هایی مانند «لطفاً پاسخی را انتخاب کنید که بیشتر حمایت کننده و تشویق کننده زندگی، آزادی و امنیت شخصی باشد»، «پاسخی را انتخاب کنید که کمترین هدف ایجاد رابطه با کاربر را داشته باشد» و «کدام پاسخ از طرف کاربر» دستیار هوش مصنوعی از نظر وجودی خطرات کمتری برای نژاد بشر دارد؟ می باشد.

هنگام تکمیل یک مدل، چه با یادگیری تقویتی، چه با هوش مصنوعی قانونی، یا هر دو، میزان مفید بودن پاسخ‌هایی که سیستم‌های هوش مصنوعی تمایل دارند و مضر بودن، اینکه آیا پاسخ‌ها توهین‌آمیز هستند یا می‌توانند باعث آسیب در دنیای واقعی شوند، تفاوتی وجود دارد. 

Anthropic  چندین نسخه از هوش مصنوعی  Claude 2خواسته  را ایجاد کرد و سپس تصمیم گرفت که کدامیک به بهترین وجه نیازهای آنها را برآورده می کند.

کلود چقدر پیشرفت کرده است؟

Claude 2  در تعدادی از معیارهای استاندارد مورد استفاده برای آزمایش سیستم های هوش مصنوعی بهتر از Claude 1.3  عمل کرد، اما به غیر از معیار توانایی کدنویسی، این بهبود حاشیه ای بود. این برنامه دارای قابلیت های جدیدی است، مانند یک "پنجره زمینه" بسیار بزرگتر که به کاربران اجازه می دهد کل کتاب ها را وارد کنند و از مدل بخواهند آنها را خلاصه کند.

به طور کلی، مدل های هوش مصنوعی با افزایش قدرت پردازش کامپیوتری، توانایی بیشتری پیدا می کنند. اینکه چقدر یک سیستم هوش مصنوعی در مجموعه‌ای از تست‌ها و معیارهای تعریف شده با مقدار مشخصی از قدرت پردازش بهبود می‌یابد، «بسیار قابل پیش‌بینی است». 

هوش مصنوعی  Claude با قوانین مقیاس‌بندی مطابقت دارد. معادلاتی که پیش‌بینی می‌کنند یک مدل با مقدار معینی از محاسبات چگونه عمل می‌کند. 

هوش مصنوعی  Claude 2

چرا آنتروپیک کلود 2 را توسعه داد؟

توسعه مدل های بزرگ هوش مصنوعی می تواند هزینه زیادی داشته باشد. شرکت ‌های هوش مصنوعی تمایلی به افشای دقیق میزان مبلغ ندارند، اما بیش از 100 میلیون دلار برای توسعه GPT-4 هزینه شده است. بنابراین، اگر کلود 2 فقط اندکی از کلود 1.3 توانایی بیشتری دارد، چرا آنتروپیک کلود 2 را توسعه داده است؟

باید اشاره کرد حتی پیشرفت‌های کوچک در سیستم‌های هوش مصنوعی در شرایط خاصی می‌تواند بسیار مهم باشد، مثلاً اگر سیستم‌های هوش مصنوعی تنها بیش از حدی از قابلیت‌ها از نظر تجاری مفید باشند. به عنوان مثال، نمونه ای از اتومبیل های خودران مطرح است که در آن افزایش اندک در قابلیت ها می تواند بسیار سودمند باشد؛ زیرا اتومبیل های خودران تنها زمانی امکان پذیر می شوند که بسیار قابل اعتماد باشند. 

شاید نخواهیم از خودروی خودرانی استفاده کنیم که 98 درصد دقت دارد، اما اگر دقت آن 99.9 درصد بود، می‌توانستیم. ضمن آنکه در مواردی مانند هوش مصنوعی  Claude 2بهبود توانایی کدنویسی به خودی خود بسیار ارزشمند خواهد بود.

پیشنهاد مطالعه:کنترل پنل میزبانی وب  Plesk

کلود 2 در مقابل GPT-4

برای سنجش عملکرد آنتروپیک، کلود 2 را واداشت تا در آزمون سوابق تحصیلات تکمیلی (GRE)، مجموعه‌ای از آزمون‌های نوشتاری شفاهی، کمی و تحلیلی که به عنوان بخشی از فرآیندهای پذیرش برای برنامه‌های تحصیلات تکمیلی در دانشگاه‌های آمریکای شمالی استفاده می‌شود، شرکت کند و همچنین آن را در محدوده‌ای آزمایش کرد. 

معیارهای استاندارد مورد استفاده برای آزمایش سیستم های هوش مصنوعی OpenAI  از بسیاری از معیارهای مشابه در GPT-4 استفاده می کند که امکان مقایسه بین دو مدل را فراهم می کند. در GRE، کلود 2 به ترتیب در صدک 95، 42 و 91 برای آزمون های شفاهی، کمی و نوشتاری قرار گرفت.

این در حالی است که هوش مصنوعی GPT-4  در صدک 99، 80 و 54 قرار گرفت. البته باید اشاره کرد که مقایسه‌ ها کامل نیستند. هوش مصنوعی  Claude 2 با نمونه‌هایی از سؤالات GRE ارائه شد در حالی که GPT-4 چنین نبود.

همچنین، به کلود 2 یک دستور زنجیره‌ای از فکر داده شد، به این معنی که از او خواسته شد تا در استدلال خود قدم بگذارد که عملکرد را بهبود می‌بخشد. Claude 2 در دو معیار معمولی که برای آزمایش قابلیت‌های مدل هوش مصنوعی استفاده می‌شود کمی بدتر از GPT-4 عمل کرد، اگرچه دوباره مقایسه‌ها کامل نبودند. دوباره دستورالعمل‌ها و تعداد نمونه‌های متفاوتی به مدل‌ها داده شد.

تفاوت در شرایط آزمایش، نتیجه گیری را دشوار می کند، فراتر از این واقعیت که مدل ها تقریباً در یک لیگ هستند، GPT-4 شاید در کل کمی جلوتر باشد. تفاوت در نمرات GRE نشان می دهد که GPT-4 در حل کمی مسئله بهتر است، در حالی که هوش مصنوعی  Claude 2در نوشتن بهتر است. 

قابل ذکر است، Claude 2 برای همه در دسترس است، در حالی که GPT-4 در حال حاضر فقط برای کسانی در دسترس است که 20 دلار در ماه برای اشتراک ChatGPT Plus پرداخت می کنند.

جمع بندی

در صورتی که تصمیم دارید از این ابزارها و برنامه های هوش مصنوعی در کاربری های مختلف استفاده کنید، می توانید با پرداخت حق اشتراک ماهانه و سالانه هر یک، از امکانات فوق العاده آنها بهره ببرید. توجه داشته باشید که عملکرد این ابزارهای هوشمند به صورت قطعی صحیح نمی باشد و لازم است که بررسی های انسانی نیز انجام شود. اطلاعات جامع تر را از کارشناسان 20پیمنت دریافت کنید.

برچسـب هـا : سایر ، هوش مصنوعی Claude 2
لطفا ایمیل خود را بدرستی وارد نمایید، پاسخ به این ایمیل ارسال خواهد شد